latinoamérica

Fuente: Andina Link Por: Gabriel E. Levy B.

El mundo digital está en jaque. Mientras las empresas corren por implementar soluciones de inteligencia artificial para optimizar procesos, reducir costos y mejorar la experiencia del cliente, los atacantes hacen exactamente lo mismo: emplean IA para quebrar los sistemas que supuestamente debían protegernos.

Hasta hace poco, la mayoría de los marcos de ciberseguridad estaban diseñados para defenderse contra humanos.

Usuarios que hacían clic en enlaces engañosos, correos que suplantaban identidades y contraseñas robadas en foros clandestinos.

Era un juego de reacción: los atacantes innovaban y los defensores respondían.

Pero la irrupción de la inteligencia artificial ha cambiado las reglas.

Los sistemas de IA, como los grandes modelos de lenguaje (LLM), procesan información a velocidades que superan las capacidades humanas, y lo hacen a través de capas complejas y opacas que pueden ser manipuladas sin que nadie lo note.

En este panorama, el caso llamado EchoLeak, descubierto en junio de 2025 por la empresa Aim Security, fue una señal de advertencia de lo que puede pasar en el futuro. A diferencia de otros ataques, no hizo falta que la víctima hiciera clic en nada ni que cayera en un engaño. Los atacantes lograron sacar información sensible aprovechando la manera en que funcionaba internamente una herramienta de inteligencia artificial de Microsoft llamada Copilot.

Microsoft solucionó el problema sin que los usuarios tuvieran que hacer nada. Pero el mensaje fue claro: hoy los ataques ya no dependen de que las personas se equivoquen, sino que apuntan directamente al funcionamiento interno de los sistemas de inteligencia artificial.

El artículo de Harvard Business Review lo dice sin rodeos: las formas actuales de protegernos no están preparadas para un mundo donde las máquinas aprenden solas y toman decisiones.

El experto Zayd Enam explica que, mientras antes se pensaba que los sistemas funcionaban siempre igual, con la inteligencia artificial eso ya no es así.

Por eso, los ataques pueden ser más difíciles de prever, cambian todo el tiempo y muchas veces ni siquiera son detectados por los sistemas de seguridad tradicionales.

Un ejército de máquinas: más identidades que humanos
La naturaleza cambiante de la infraestructura tecnológica empresarial añade un nuevo nivel de complejidad. Un informe de diciembre de 2025 también publicado por Harvard Business Review revela que las empresas ahora manejan una proporción de 82 identidades de máquinas por cada empleado humano. Estas identidades automatizadas, creadas para que bots y servicios puedan comunicarse entre sí, se han convertido en un nuevo campo minado para la seguridad.

Estas identidades, muchas veces sin supervisión directa, pueden ser falsificadas y utilizadas para desencadenar acciones automatizadas en cadena: accesos a sistemas internos, transferencia de archivos, movimientos financieros o activación de servicios en la nube. Esto implica que una sola identidad comprometida puede causar un daño multiplicado por decenas o cientos de procesos automatizados.

La firma de seguridad GreyNoise, que monitorea infraestructuras digitales a través de honeypots (sistemas trampa), registró más de 91,000 sesiones de ataque dirigidas a plataformas de IA entre octubre de 2025 y enero de 2026. Estas campañas no solo explotaron vulnerabilidades conocidas en herramientas como Twilio o la plataforma de modelos Ollama; también dirigieron sus esfuerzos a los propios LLM.

GPT-4o de OpenAI, Claude de Anthropic, Llama de Meta y Gemini de Google fueron sistemáticamente sondeados a través de consultas diseñadas para evadir los sistemas de detección.

Los atacantes no intentaban dañar directamente los modelos; buscaban comprender sus reacciones, construir perfiles de respuesta y mapear sus mecanismos internos.

La información extraída permite ataques posteriores más dirigidos, silenciosos y peligrosos.

En palabras del académico Nicolas Papernot, investigador de seguridad y aprendizaje automático en la Universidad de Toronto: “las IA no solo aprenden de datos, también pueden ser manipuladas por ellos”.

«El enemigo es invisible, pero real»
La vulnerabilidad EchoLeak no fue un caso aislado. La creciente sofisticación de las campañas dirigidas a infraestructuras de IA revela una tendencia clara: los atacantes están profesionalizando sus herramientas, y la inteligencia artificial ya no es solo una víctima potencial, sino también un arma.

Moody’s, la calificadora de riesgo, advirtió recientemente sobre la proliferación de “malware adaptativo” y “ataques autónomos” durante 2026.

La capacidad de la IA para generar deepfakes, redactar correos de phishing personalizados en segundos o automatizar la identificación de puertas traseras en sistemas complejos, eleva la amenaza a un nuevo nivel. La posibilidad de ataques sin intervención humana, ejecutados por máquinas que aprenden de cada intento fallido, dibuja un futuro de confrontación constante en un terreno que evoluciona en tiempo real.

Además, los expertos alertan sobre la fragilidad de los filtros de seguridad actuales. Muchas plataformas dependen de sistemas de moderación basados en reglas fijas o modelos de detección entrenados en patrones previos. Pero los atacantes ya aprendieron a sortearlos. Las consultas “inocuas” registradas por GreyNoise, por ejemplo, fueron diseñadas para evitar cualquier palabra clave que activara mecanismos de protección. Una especie de reconocimiento pasivo que precede a ataques quirúrgicos.

En este nuevo escenario, la ciberseguridad debe dejar de pensar en términos de «perímetro» o «usuario autorizado». En un mundo gobernado por IA, la seguridad no puede depender de quién accede, sino de cómo se comportan los sistemas una vez que acceden.

«Cuando las trampas se activan solas»
A nivel práctico, los casos recientes muestran cómo incluso las arquitecturas más protegidas pueden fallar frente a ataques dirigidos por IA. La campaña registrada durante la Navidad de 2025 explotó funciones legítimas de descarga de modelos y webhooks de Twilio para infiltrar código malicioso.

La rapidez del ataque fue tal que, en 48 horas, se registraron 1,688 sesiones, muchas de ellas encadenadas desde diferentes ubicaciones, usando identidades de máquinas previamente comprometidas.

Otro caso, ocurrido el 28 de diciembre, desplegó una operación de reconocimiento masivo sobre 73 puntos de acceso a modelos de IA.

Utilizando dos direcciones IP con antecedentes documentados, los atacantes enviaron más de 80,000 consultas, recopilando información sin activar mecanismos de defensa.

Los investigadores aseguran que el objetivo era construir un mapa detallado de la superficie de ataque, desde donde lanzar acciones más sofisticadas posteriormente.

La gran ironía es que muchos de estos ataques no requerían vulnerabilidades técnicas propiamente dichas.

Bastaba con entender cómo funcionaban los modelos, predecir sus respuestas y explotarlas a favor del atacante. Este nuevo paradigma, conocido como prompt injection o inyección entre prompts, utiliza los propios sistemas de IA como herramientas de ataque, manipulándolos a través de lenguaje natural cuidadosamente diseñado.

En un entorno donde las herramientas de defensa tradicionales se basan en firmas conocidas o patrones repetitivos, la adaptabilidad de la IA se convierte en su mayor amenaza.

En conclusión, La ciberseguridad vive una crisis de identidad. Las amenazas actuales no solo vienen de hackers humanos con intenciones maliciosas, sino de sistemas automáticos que aprenden, se adaptan y superan las defensas diseñadas para un mundo que ya no existe. Como lo demuestra el caso de EchoLeak y las campañas recientes detectadas por GreyNoise, la inteligencia artificial ha redefinido el campo de batalla. Las empresas, gobiernos y usuarios deben repensar no solo cómo se defienden, sino qué significa realmente estar seguros en un entorno donde incluso las máquinas pueden mentir, persuadir y atacar.

© iPuntoTV 2026

13.01.26 17:32


Además lo invitamos a visualizar y compartir estos títulos: